查看原文
其他

代码泄露事件后 三星暂时禁止员工使用ChatGPT等生成式AI

2023年5月2日,据法新社报道,韩国科技巨头三星电子2日宣布,由于发现相关技术遭到“不当使用”的案例,禁止手机与家电部门员工利用公司电脑使用聊天机器人ChatGPT等生成式AI服务
此举是在上个月发生代码泄露事件后的“亡羊补牢”举措,此前消息称,三星电子引入聊天机器人ChatGPT不到20天就发生了3起涉及ChatGPT的事故,其中2起与半导体设备有关,1起与会议内容有关。
报道称,内部备忘录表示,三星担心传输到谷歌Bard和微软Bing等人工智能平台的数据存储在外部服务器上,难以检索和删除,最终可能会泄露给其他用户。
内部备忘录还显示,三星上个月进行了一项关于内部使用AI工具的调查,其中65%的受访者认为此类服务存在安全风险。备忘录透露,今年4月初,三星工程师将内部源代码上传到了ChatGPT,目前还不清楚这些信息包含什么。
与此同时,三星正在开发自己的内部AI工具,用于翻译和总结文件以及软件开发,还在研究阻止敏感公司信息上传到外部服务的方法。“总部正在审查安全措施,以创造一个安全的环境,以安全地使用生成式AI来提高员工的生产力和效率。但是,在准备好这些措施之前,我们暂时限制生成式AI的使用。”
三星的新政策禁止在公司自有的电脑、平板电脑和手机以及内部网络上使用生成式AI系统,不会影响销售给消费者的设备,例如Android智能手机和Windows笔记本电脑。三星甚至在消费者设备中积极推广生成式AI,三星近日向旗下所有的手机以及平板电脑产品推送了微软BingAI更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软BingAI。三星在备忘录中表示:“我们要求您认真遵守我们的安全指南,否则可能会导致公司信息泄露,违者进行纪律处分,甚至包括解雇。”
相关阅读
英国多家银行网站和应用程序系统出现中断
大华银行 因重要信息系统访问控制管理问题 被罚
5月一批网络安全相关法律法规将实施!(欢迎补充)
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存